Sto archiviando i dati da un server a un altro. Inizialmente ho iniziato un rsync
lavoro. Ci sono volute 2 settimane per costruire l'elenco dei file solo per 5 TB di dati e un'altra settimana per trasferire 1 TB di dati.
Quindi ho dovuto terminare il lavoro perché abbiamo bisogno di un po 'di tempo morto sul nuovo server.
È stato concordato che lo avremo tarato poiché probabilmente non dovremo accedervi nuovamente. Stavo pensando di dividerlo in blocchi da 500 GB. Dopo di tar
che poi avrei copiato tutto ssh
. Stavo usando tar
e pigz
ma è ancora troppo lento.
C'è un modo migliore per farlo? Penso che entrambi i server siano su Redhat. Il vecchio server è Ext4 e il nuovo è XFS.
Le dimensioni dei file vanno da pochi KB a pochi MB e ci sono 24 milioni di jpeg in 5 TB. Quindi sto indovinando circa 60-80 milioni per 15 TB.
modifica: dopo aver giocato con rsync, nc, tar, mbuffer e pigz per un paio di giorni. Il collo di bottiglia sarà l'IO del disco. Poiché i dati vengono distribuiti su 500 dischi SAS e circa 250 milioni di jpeg. Tuttavia, ora ho imparato tutti questi simpatici strumenti che posso usare in futuro.