Il mio comando per clonare un'unità è ottimale?


16

Ho fatto mezz'ora a leggere in giro per prepararmi a clonare il mio disco rigido. Ha più partizioni, inclusa una partizione di Windows. Ho intenzione di acquistare un disco rigido esterno molto grande per il backup. Vorrei poter usare questo clone per ripristinare l'intero disco nel caso qualcosa vada storto (sto per fare un po 'di ri-shuffle del sistema operativo). Voglio imparare come farlo usando dd, poiché mi piacciono gli strumenti di basso livello che non richiedono l'installazione di nulla.

Ho trovato il seguente codice utile dai forum di Ubuntu (inserito da una shell di root usando un CD live):

dd if=/dev/hda of=/dev/hdb & pid=$!
while kill -USR1 $pid; do sleep 1; done

(So ​​che dovrò modificare le posizioni di input e output.) Tuttavia ho due domande. Il primo è molto noobie: questo comando è diviso su due linee. Sicuramente quando premo Invio dopo il punto esclamativo inizierà il processo?

Due, su altri siti ha raccomandato di inserire la dimensione del blocco. Come questo:

# dd if=/dev/hda conv=sync,noerror bs=64K of=/mnt/sda1/hda.img

Non so nulla delle dimensioni dei blocchi. 64K è giusto? Sembra che la mia dimensione del blocco sia di 512 byte dai seguenti, l'output di sudo fdisk -ul:

Disk /dev/sda: 750.2 GB, 750156374016 bytes
255 heads, 63 sectors/track, 91201 cylinders, total 1465149168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0xc3ffc3ff

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *          63   143364059    71681998+   7  HPFS/NTFS/exFAT
Partition 1 does not start on physical sector boundary.
/dev/sda2       976867328  1465147391   244140032    7  HPFS/NTFS/exFAT
/dev/sda3       143364094   976867327   416751617    5  Extended
Partition 3 does not start on physical sector boundary.
/dev/sda5       143364096   162895871     9765888   82  Linux swap / Solaris
/dev/sda6       162897920   205864959    21483520   83  Linux
/dev/sda7       205867008   976867327   385500160   83  Linux

Partition table entries are not in disk order

Disk /dev/mapper/cryptswap1: 10.0 GB, 10000269312 bytes
255 heads, 63 sectors/track, 1215 cylinders, total 19531776 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x433bb3a7

Disk /dev/mapper/cryptswap1 doesn't contain a valid partition table

Grazie.


Hai provato un semplice dd if=/dev/hda of=hdb? Ecco una risposta che mostra alcuni dettagli tra cui il runtime per 160 GB: askubuntu.com/questions/435694/…
SDsolar

Le versioni recenti di Ubuntu utilizzano coreutils v.8.24 o successive in cui ddinclude un interruttore di avanzamento come menzionato qui
Elder Geek

Risposte:


22

Progresso

Il comando che hai elencato

dd if=/dev/hda of=/dev/hdb & pid=$!
while kill -USR1 $pid; do sleep 1; done

è una bella fodera per ottenere i progressi ddsu base regolare. Ne uso anche uno molto simile. Sembra buono. Lo hai trovato qui forse?

Blocksizes con dd: allineamento e prestazioni

È possibile aggiungere una dimensione di blocco in cui avvengono le operazioni. Non importa quale sia la dimensione del blocco del dispositivo a blocchi sottostante per eseguire l'operazione allo stesso modo, ma per motivi di prestazioni potresti voler sceglierne uno adatto alle tue esigenze.

Prima di tutto, c'è la cosa dell'allineamento . Nel caso in cui il dispositivo a blocchi funzioni come 512 KiB (come fanno le unità flash), sarebbe molto spiacevole eseguire ddcon bs=512(byte) poiché ciò causerebbe 1024 scritture (!) Per ciascun blocco dal punto di vista del dispositivo. In pratica non sarà così male poiché le scritture vengono memorizzate e prese in una volta sola, ma durante le sincronizzazioni può ancora amplificare molto la quantità di scritture.

Quindi considerare anche il semplice sovraccarico dell'utilizzo della CPU quando si ha a che fare con una quantità molto grande di piccole operazioni. È solo più efficiente prendere megabyte contemporaneamente quando si copia su grandi quantità di dati.

La mia migliore pratica è di iniziare con 1 MB in quanto è un bel multiplo della maggior parte delle configurazioni, tra cui dimensioni della striscia RAID, dimensioni dell'estensione LVM, ecc. Sul mio laptop con SSD tendo a vedere un leggero miglioramento usando 10 MB come dimensione del blocco, mentre io non lo vedo più sul mio disco rigido fisico.

Ultimo blocco

Non preoccuparti che la dimensione dell'unità / volume non sia un multiplo della dimensione del blocco. L'ultimo blocco ddverrà copiato verrà adattato per corrispondere all'ultimo bit di dati su di esso. Puoi vedere se l'ultimo blocco aveva una dimensione diversa guardando l'output.

18335302+0 records out

I +0mezzi che si trattava di una corrispondenza esatta, un +1mezzo che non l'era. Nessun grosso problema.

Guarda anche


1
Caspita, che risposta completa. Grazie mille per aver dedicato del tempo per farlo. Aggiornerò la domanda originale con un link alla mia fonte. Allora andrò con 1 MB. Quindi il mio comando sarà così, vero? # dd if=/dev/hda conv=sync,noerror bs=1MB of=/mnt/sda1/hda.img & pid=$! while kill -USR1 $pid; do sleep 1; done
Kit Johnson

2
@oldmankit Farei in bs=1Mquanto è una potenza di 2, piuttosto che bs=1MBuna potenza di 10. Ma esegui solo alcuni benchmark sul tuo sistema se riesci a vedere qual è il migliore.
gertvdijk,

4
Nota che, come menzionato qui dal rilascio di coreutils> = 8.24 (impostazione predefinita in Ubuntu Xenial 16.04 in poi), non è più necessario kill -USR1 $piddd ora ha un rapporto sui progressi disponibile aggiungendo lo status=progressswitch
Elder Geek,

10

Come altri hanno già detto, non esiste una dimensione di blocco universalmente corretta; ciò che è ottimale per una situazione o un componente hardware può essere terribilmente inefficiente per un altro. Inoltre, a seconda dell'integrità dei dischi, può essere preferibile utilizzare una dimensione di blocco diversa da quella "ottimale".

Una cosa che è abbastanza affidabile su hardware moderno è che la dimensione del blocco predefinito di 512 byte tende ad essere quasi un ordine di grandezza più lento di un'alternativa più ottimale. In caso di dubbio, ho scoperto che 64 KB è un default moderno piuttosto solido. Sebbene 64K di solito non siano le dimensioni ottimali del blocco, nella mia esperienza tende ad essere molto più efficiente di quello predefinito. 64K ha anche una storia piuttosto solida di essere affidabile: puoi trovare un messaggio dalla mailing list di Eug-Lug , circa 2002, raccomandando una dimensione del blocco di 64K.

Per determinare la dimensione ottimale del blocco di output, ho scritto il seguente script che verifica la scrittura di un file di test da 128 M con dd in un intervallo di diverse dimensioni di blocco, dal valore predefinito di 512 byte a un massimo di 64 MB. Attenzione, questo script usa dd internamente, quindi usa con cautela.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Visualizza su GitHub

Ho testato questo script solo su un sistema Debian (Ubuntu) e su OSX Yosemite, quindi probabilmente ci vorranno alcune modifiche per far funzionare altri sapori Unix.

Per impostazione predefinita, il comando creerà un file di prova denominato dd_obs_testfilenella directory corrente. In alternativa, è possibile fornire un percorso a un file di test personalizzato fornendo un percorso dopo il nome dello script:

$ ./dd_obs_test.sh /path/to/disk/test_file

L'output dello script è un elenco delle dimensioni dei blocchi testati e delle rispettive velocità di trasferimento in questo modo:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Nota: l'unità delle velocità di trasferimento varia in base al sistema operativo)

Per testare le dimensioni ottimali del blocco di lettura, è possibile utilizzare più o meno lo stesso processo, ma invece di leggere /dev/zeroe scrivere sul disco, leggere dal disco e scrivere /dev/null. Una sceneggiatura per farlo potrebbe apparire così:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Visualizza su GitHub

Una differenza importante in questo caso è che il file di test è un file scritto dallo script. Non puntare questo comando su un file esistente o il file esistente verrà sovrascritto con dati casuali!

Per il mio hardware particolare ho scoperto che 128K era la dimensione del blocco di input più ottimale su un HDD e 32K era il più ottimale su un SSD.

Sebbene questa risposta copra la maggior parte delle mie scoperte, ho dovuto determinare una dimensione ottimale del blocco dd abbastanza volte che ho scritto un post sul blog al riguardo. Puoi trovare ulteriori dettagli sui test che ho eseguito lì.

Questo post StackOverflow può anche essere utile: dd: come calcolare la dimensione di blocco ottimale?


Insegna a un uomo a pescare = +1
HackSlash,

@ tdg5 Questo è un ottimo script, ma si imbatte in errori fatali quando eseguito da Cygwin in un ambiente Windows 7. Esiste una versione che funzionerà su Cygwin?
Hashim,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.