Facili backup incrementali su un disco rigido esterno


53

Per un po 'ho usato Dirvish per fare backup incrementali delle mie macchine, ma è leggermente complicato da configurare, e se non porti una copia della tua configurazione può essere difficile riprodurla altrove.

Sto cercando programmi di backup per Unix, Linux che potrebbero:

  • Aggiorna in modo incrementale il mio backup
  • Crea alberi "speculari" come ha fatto Dirvish usando hardlink (per risparmiare spazio)
  • Idealmente con un'interfaccia utente decente

Risposte:



22

Questo script, ma funzionale, eseguirà il backup di tutto ciò che è sotto il sole sul tuo disco rigido esterno in una fattoria con collegamento reale. Il nome della directory è un timestamp e mantiene un collegamento simbolico all'ultimo backup riuscito. Pensalo come una Time Machine senza la fantasia della GUI.

#!/bin/sh
DATE=`/bin/date +%Y%m%d%H%M%S`
RSYNC=/usr/bin/rsync
BASE=/mnt/externalhd
TARGET=$BASE/daily
$RSYNC -av --exclude $TARGET --exclude-from=/etc/backup/rsync.exclude --link-dest=$TARGET/latest/ / $TARGET/$DATE/
touch $TARGET/$DATE/
rm $TARGET/latest
ln -s $TARGET/$DATE $TARGET/latest

Impostalo creando uno $TARGETspazio vuoto e collega simbolicamente un manichino $TARGET/latestad esso. Popola /etc/backup/rsync.excludecon lost+found, tmp, var/rune tutto ciò che serve per saltare durante il backup, o andare per --include-da se si adatta meglio; man rsyncÈ tuo amico.

Controlli di integrità, controllo degli errori, backup remoto e un'interfaccia grafica GNOME sono lasciati come esercizio al lettore ;-)


1
+1 Faccio qualcosa di molto simile a questo. --link-dest per la vittoria.
kbyrd,

9

Il confronto di backup degli strumenti di backup su Ubuntu-Stackexchange non è specifico per Ubuntu. Forse hai qualche suggerimento lì.

Consiglio DAR, il programma Disk ARchive . Non viene fornito con una GUI, ma la sua configurazione è facile da riprodurre. Ha un ottimo supporto per il backup incrementale. Non utilizza alberi mirror hardlink, ma ha una comoda shell per navigare nella vista del filesystem di diverse istantanee.


DAR ha una procedura di ripristino scomoda: ogni backup incrementale sovrascrive fisicamente i file dal passaggio precedente. Quindi, se il tuo file cambia 7 volte, verrebbe estratto 7 volte e 6 copie verrebbero sprecate, sovrascritte dal 7 °.
Ayvango,

8

Uso il backintime , che si rivolge principalmente ai desktop Gnome / KDE. Tuttavia, può funzionare anche dalla riga di comando.

Descrivo il backintime come un sistema di backup con "deduplicazione del povero".

Se dovessi scrivere il tuo script di backup per utilizzare rsync e hardlink, finiresti con qualcosa di simile al backintime.

  • Uso cron per dare il via al lavoro nel backintime una volta a notte.
  • Come dice la documentazione: la vera magia è fatta da rsync (scatta istantanee e ripristina), diff (controlla se qualcosa è cambiato) e cp (crea hardlink).
  • backintime può essere configurato con diverse pianificazioni. Conservo i backup mensili per 1 anno, i settimanali per 1 mese e i quotidiani per 1 settimana.
  • backintime utilizza hardlink. Ho 130 GB di dati e ne eseguo il backup ogni notte. Utilizza solo 160 GB di spazio sul secondo disco a causa della magia degli hardlink.
  • Il ripristino dei dati dalla posizione di backup è semplice come in esecuzione cp /u1/backintime/20100818-000002/backup/etc/rsyslog.conf /etc/rsyslog.conf. Non è necessario utilizzare la GUI.
  • Sulla seconda unità, la copia iniziale era costosa (poiché non è possibile eseguire collegamenti fissi tra due diversi filesystem), ma le copie successive sono veloci.
  • Copio i dati dal mio filesystem primario in un secondo filesystem su una seconda unità sostituibile a caldo, e periodicamente ruoto l'unità secondaria.

Sicuramente vuoi che la copia iniziale sia costosa, altrimenti non hai un backup, solo un altro link a un singolo file? Certo, è anche possibile che mi manchi qualche punto cruciale che rende inutile questo commento :-)
dr-jan

@ Dr-Jan: sono d'accordo con te. Tuttavia, penso che alcuni utenti si aspettino che la copia iniziale sia veloce.
Stefan Lasiewski,


3

Ho avuto un certo successo con RIBS (Rsync Incremental Backup System)

Utilizza rsync, quindi i collegamenti fisici sono supportati e può eseguire backup incrementali ogni ora, ogni giorno, settimanalmente e mensilmente.

Tuttavia, è solo uno script PHP. Per configurare è necessario modificare le impostazioni e quindi configurare cronjobs correlati. Funziona, ma non è il più facile da usare e richiede PHP.


1

Uso epitome da circa un anno ormai per backup deduplicati dei miei dati personali. Ha un'interfaccia simile al tar, quindi è abbastanza comodo per un utente unix e l'installazione è un gioco da ragazzi, almeno, su OpenBSD. Puoi facilmente cronarlo per eseguire il backup delle tue directory su base giornaliera e si occupa della deduplicazione dei tuoi dati. Fondamentalmente ti rimane un meta-file che puoi usare per ripristinare la tua istantanea in un secondo momento. Come ho detto l'interfaccia è tar-like, quindi fare un backup è facile come:

# epitomize -cvRf 2010-08-16-home.md / home

Si noti che epitome viene abbandonato, rimane solo una copia parziale del sito Web all'indirizzo https://web.archive.org/web/20140908075740/https://www.peereboom.us/epitome/ .


Al momento è sperimentale ma funziona abbastanza bene. Sono stato in grado di eseguire ripristini completi da metafile arbitrari e recuperare le informazioni di cui avevo bisogno e ho avuto 0 problemi con esso in ~ 1 anno di utilizzo.
gabe.

1

BackupPC suona come si adatta al conto. Gestisce un albero di collegamenti fisici per dedupe e può eseguire il backup di molti computer o solo del computer locale.


+1 per BackupPC Lo uso per eseguire regolarmente il backup di un gruppo di server. Ha anche una buona interfaccia utente basata sul web.
dr-jan,

1

L'obnam di Lars Wirzenius :

  • Esegue la deduplicazione quando esegue il backup delle cose, il che significa che i backup probabilmente occupano poco spazio, potenzialmente molto più del semplice collegamento di file.
  • Poiché i backup sono con deduplicazione, ogni backup è "completo", senza necessità di backup incrementali. Rileva semplicemente che non sono cambiate molte cose e fa solo ciò che è necessario.
  • Ogni backup è, in effetti, un'istantanea del sistema, senza la necessità di ripristinare l'ultimo backup completo e ogni backup incrementale a sua volta per ripristinare il sistema.
  • Contrariamente a bup (che è un altro contendente forte con la deduplicazione), obnam è in grado di eliminare i backup precedenti per risparmiare spazio di backup non necessari.
  • È andato in pensione
  • Oltre a utilizzare i normali metodi di recupero di un programma di backup, esiste un file system con fusibili che fornisce una vista dei backup di obnam come un semplice file system e che può scegliere quale istantanea / backup / generazione montare, che è super utile, per quanto riguarda "utente "interfacce vanno (dato che siamo in un sito relativo a Unix, un'interfaccia a riga di comando flessibile è molto apprezzata).
  • Supporta la crittografia come parte integrante dei backup (e non come ripensamento).
  • È stato scritto pensando al supporto per i backup remoti.

Secondo me, un serio contendente per la Giornata mondiale del backup (e non solo quel giorno).


"Dato che i backup sono con deduplicazione, ogni backup è" completo ", senza la necessità di avere backup incrementali. Rileva semplicemente che non sono cambiate molte cose e fa solo ciò che è necessario" -come si basa su versioni di backup precedenti per fornire dati significa che è un backup incrementale.
Mateusz Konieczny,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.